Nucleo subtalamico e corteccia durante la produzione del linguaggio

 

 

DIANE RICHMOND & GIOVANNI ROSSI

 

 

 

NOTE E NOTIZIE - Anno XVI – 09 febbraio 2019.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: AGGIORNAMENTO]

 

Le basi della produzione del linguaggio verbale umano sono oggetto di intensi studi che, da quando il semplice modello modulare del controllo corticale da parte dell’area di Broca è stato superato, non sono ancora riusciti a definire una sintesi delle nuove nozioni che sembrano delineare la realtà di una rete complessa. Un aspetto interessante è che i progressi compiuti nell’analisi delle componenti corticali che intervengono per consentire l’eloquio, non hanno riscontro in una parallela acquisizione di nuovi e importanti elementi relativi alla partecipazione delle strutture sottocorticali alla funzione produttiva ed esecutiva della parola. Infatti, sappiamo che la corteccia sensomotoria è ripartita, seguendo un criterio di organizzazione somatotopica, in aree funzionali diverse che rappresentano gli organi articolatori del tratto vocale, quali labbra, lingua, laringe e mandibola; ma, al livello subcorticale, rimane in gran parte ignoto come siano codificati il linguaggio verbale e gli elementi articolatori.

Chrabaszcz e colleghi hanno analizzato le registrazioni di potenziali di campo locali (LFP) ottenute dal nucleo subtalamico e l’elettrocorticogramma rilevato simultaneamente dalla corteccia sensomotoria di 11 persone affette da malattia di Parkinson, nel corso dell’intervento di impianto degli elettrodi per la stimolazione cerebrale profonda (DBS, da deep brain stimulation), mentre costoro leggevano ad alta voce parole di tre fonemi. I risultati sono molto interessanti.

(Chrabaszcz A., et al., Subthalamic nucleus and sensorimotor cortex activity during speech production. Journal of Neuroscience - Epub ahead of print doi: 10.1523/JNEUROSCI.2842-18.2019, 2019).

La provenienza degli autori è prevalentemente la seguente: Department of Psychology, University of Pittsburgh, Pennsylvania (USA); Brain Modulation Lab, Department of Neurological Surgery, and Department of Neurobiology, University of Pittsburgh School of Medicine, Pennsylvania (USA); University of Pittsburgh Brain Institute, Pennsylvania (USA); Department of Psychology, Carnegie Mellon University, Pennsylvania (USA); Movement Disorder and Neuromodulation Unit, Department of Neurology, Campus Mitte, Charity University of Medicine, Berlin (Germania); School of Medicine, Tsinghua University, Beijing (Cina).

Si propone, per introdurre l’argomento della ricerca sulle basi cerebrali del linguaggio, una recente sintesi concettuale dell’evoluzione dal primo modello, basato sui due “centri” della corteccia cerebrale, ai giorni nostri.

“Il tradizionale modello neurologico del linguaggio, originato dagli studi anatomo-clinici, con le aree corticali di Broca e di Wernicke dell’emisfero sinistro collegate da un fascio unidirezionale, ha a lungo condizionato il modo di concepire le basi della funzione comunicativa e, sebbene oggi si disponga di una vasta mole di dati a sostegno di una realtà molto più complessa, si stenta a definire nuovi modelli. Sulla base della fisiologia del controllo corticale e dei deficit derivanti dalla sua patologia, si è concepita la funzione comunicativa come una facoltà rigidamente compartimentata e localizzata. Si distingueva, come nell’organizzazione del midollo spinale, un versante motorio ed uno recettivo.

Quello motorio, coincidente con un territorio corticale anteriore, sito presso il piede della terza circonvoluzione frontale di sinistra[1], nell’area 44 della mappa di Brodmann e detto area di Broca, dal nome del neurologo ed antropologo francese che nel 1861 descrisse per primo l’afasia non fluente dovuta alla sua lesione[2]. Quello recettivo, coincidente con un territorio corticale posteriore, contiguo all’area uditiva temporale, prossimo al giro angolare e alla corteccia occipitale, detto area di Wernicke, dal nome del giovane neurologo che nel 1874 descrisse l’afasia fluente dovuta alla sua lesione[3].

Per circa un secolo, sebbene vi fossero teorie alternative come quella di Pierre-Marie, si è pensato alle basi cerebrali della facoltà di comunicazione verbale umana come a due moduli: uno di elaborazione recettiva per la comprensione della parola udita o letta, ed uno di programmazione esecutiva per la produzione vocale della lingua parlata. A questi due moduli principali, uniti da un fascio di connessione[4] e costituiti dalle due aree corticali dell’emisfero sinistro, venivano aggiunte ipotetiche aree secondarie per compiti specializzati, il cui ruolo era desunto dai deficit derivanti da loro lesioni e solo raramente da stimolazione elettrofunzionale. Naturalmente, un tale complesso specializzato per il linguaggio era concepito in connessione con le aree sensoriali dell’udito e della vista, con le aree motorie per l’articolazione della parola, con le aree associative e con un ipotetico centro del pensiero, sede dell’elaborazione cognitiva.

Questo modello era stato proposto da Carl Wernicke nel 1874[5] ed aggiornato con nuove connessioni e dettagli negli anni Sessanta del Novecento da Norman Geschwind, dando luogo allo schema detto di Wernicke–Geschwind.

Le comode certezze ispirate da questa concezione modulare, semplice e schematica, hanno cominciato a vacillare con gli studi funzionali condotti durante l’esecuzione di compiti linguistici mediante tomografia ad emissione di positroni (PET), risonanza magnetica funzionale (fMRI), elettroencefalografia (EEG) e magnetoencefalografia (MEG) che hanno rivelato schemi di attivazione estesi e complessi che, combinati con le nozioni emergenti dalla ricerca neuroscientifica, hanno suggerito l’esistenza di una complessa architettura funzionale che include l’emisfero destro.

La complessità rende ragione di una qualità speciale della facoltà di parola umana che non è resa dal semplice paragone con le abilità comunicative delle altre specie. Le api codificano e trasmettono la distanza e la direzione del miele mediante una danza, i maschi di molte specie di uccelli attraggono le femmine con il canto, gli scimpanzé ed altre scimmie hanno un repertorio di suoni vocali specifici per comunicare stati affettivi ed emozionali legati al desiderio sessuale, alla paura, all’aggressività. L’invenzione, l’apprendimento e l’uso delle lingue verbali umane, che include come traccia paradigmatica di base queste abilità animali, va molto oltre. Ogni lingua può essere definita come un insieme finito di suoni che può essere combinato con un numero illimitato di possibilità.

In realtà, il nostro cervello impiega in entrata e in uscita, anche nella codifica grafica (scrittura), delle unità di informazione elementari corrispondenti ai singoli suoni o fonemi, che combina in piccole unità semantiche chiamate morfemi. Rispettando le regole trasmesse e apprese di una lingua, può combinare i morfemi in parole, e queste, secondo la sintassi, in un numero potenzialmente infinito di frasi. Lo sviluppo del linguaggio nel bambino segue un piano universale e, secondo studi recenti, non può essere ricondotto né al paradigma di Skinner basato eccessivamente su modellamento e rinforzo esterno, né alla visione di Chomsky troppo genericamente legata ad una ipotesi innatista. Proprio lo studio dei processi che consentono l’acquisizione della lingua madre da parte dei bambini, ha aperto orizzonti nuovi di comprensione della funzione comunicativa umana, che meritano di essere conosciuti ed ulteriormente indagati. Sicuramente oggi si ha una visione più chiara delle abilità linguistiche nella prima infanzia, soprattutto grazie ai progressi nelle conoscenze relative allo sviluppo cognitivo, che hanno fornito strumenti per andare oltre la semplice osservazione fenomenica e comportamentale. Sappiamo che, quando un bambino di un anno pronuncia le prime parole, è in grado di conferire un valore semantico associativo a non meno di 60-90 termini. Se a 15 mesi comprende il senso di frasi bitermine concretistiche (bevi-latte), a 16, quando pronuncia 50 parole distinte, comprende da 170 a 230 termini della lingua madre.

Ritornando al superato modello Wernicke–Geschwind, ci si può chiedere cosa rimanga oggi di valido in quella visione, oltre al riconoscimento delle due aree corticali che, seppure non più ritenute dei “centri” esclusivi, si sa che svolgono un’importante funzione specializzata al livello della funzione integrativa corticale. Si può rispondere che il ruolo privilegiato dell’emisfero sinistro rimane un fatto certo, con la sola eccezione della piccola percentuale di mancini veri che presentano un’inversione con controllo corticale a destra e la quota ancora più bassa dei rari casi di cosiddetta “dominanza doppia” (ambidestri). La specializzazione dell’emisfero sinistro per l’elaborazione fonetica, delle parole e delle frasi, non ha un esatto compenso in un ruolo specifico ed esclusivo dell’emisfero destro per la prosodia, come si era creduto due decenni fa. L’elaborazione prosodica impegna entrambi gli emisferi, con variazioni che dipendono dall’informazione veicolata”[6].

Chrabaszcz e colleghi hanno deciso di esplorare, con la metodologia elettrofunzionale consentita dalla capacità di rilevazione dell’attività elettrica di cui sono dotati gli elettrodi DBS impiantati per la terapia della malattia di Parkinson, le componenti sottocorticali motorie della produzione verbale. Numerose evidenze cliniche ed elettrofisiologiche suggeriscono che il nucleo subtalamico (o corpo di Luys), in passato considerato un semplice starter della locomozione, prenda parte attivamente ai processi legati all’uso umano della parola; ma, questo importante aggregato neuronico diencefalico associato ai nuclei della base telencefalica, è ancora ignorato nei modelli attuali della produzione verbale. Gli autori dello studio avevano già in precedenza rilevato e dimostrato che il nucleo subtalamico codifica in modo differenziato aspetti iniziali e finali dei processi che consentono di produrre parole.

In questo studio, durante l’impianto degli elettrodi per la DBS in 11 volontari (fra cui una sola donna) affetti da malattia di Parkinson, sono stati rilevati simultaneamente il tracciato elettrocorticografico della corteccia sensomotoria e i potenziali di campo locali (LFP, da local field potential) del nucleo subtalamico, ossia della sede elettiva di inserzione degli elettrodi per la stimolazione terapeutica, mentre i pazienti leggevano ad alta voce parole di tre fonemi.

Il compito di lettura prevedeva l’esecuzione sia di parole che cominciano con una consonante coronale, ossia con un fonema iniziale articolato primariamente mediante la lingua, sia con una consonante labiale, ossia con un fonema articolato primariamente mediante le labbra. Nel primo caso, il primo fono prodotto poteva essere una l, detta, per la sua sede di articolazione, “alveolare, laterale, liquida”; nel secondo caso, poteva essere una p, detta “occlusiva, labiale, sorda”. Un esempio equivalente in italiano di queste due categorie di parole di tre fonemi lette dai volontari, può essere Lia e Pia.

Un primo rilievo emerso dai tracciati è stato il significativo incremento dell’alta frequenza gamma (60-150 Hz) sia nel nucleo subtalamico sia nella corteccia sensomotoria; tale incremento ha inizio prima della genesi della parola e continua durante tutta la sua articolazione.

Come i ricercatori si aspettavano sulla base di rilievi effettuati in precedenti studi, nella corteccia sensomotoria i segmenti articolatori primari implicati nella produzione della consonante iniziale erano rappresentati topograficamente dall’alta attività gamma nella sede somatotopica specifica per la lingua e le labbra. Il risultati più attesi, naturalmente, erano quelli relativi al nucleo subtalamico: l’alta attività gamma, come nella corteccia, dimostrava specificità per il segmento articolatore primario, ma non è stato possibile riconoscere alcuna regolarità topografica.

In generale, l’alta attività gamma subtalamica variava lungo la traiettoria ventro-dorsale degli elettrodi, con maggiori livelli di energia gamma registrati nella parte posteriore del nucleo subtalamico.

Un aspetto di notevole interesse per le deduzioni interpretative e teoriche sull’elaborazione dell’esecuzione verbale: la maggior parte dell’attività discriminativa del segmento articolatorio si verificava nel nucleo subtalamico prima che nella corteccia sensomotoria.

Questi risultati dimostrano che l’informazione linguistica specifica per l’articolazione è contenuta nell’attività gamma del nucleo subtalamico, ma con una differente organizzazione spaziale e temporale rispetto alla simile informazione codificata nella corteccia sensomotoria.

In conclusione, nessuno studio precedente aveva indagato l’organizzazione funzionale dell’area del subtalamo per i segmenti articolatori della parola, Chrabaszcz e colleghi hanno scoperto che l’alta attività gamma del nucleo subtalamico traccia la produzione verbale al livello dei segmenti articolatori del tratto vocale, prima che nasca la vocalizzazione e, spesso, prima della codificazione corticale.

 

Gli autori della nota ringraziano la dottoressa Isabella Floriani per la correzione della bozza e invitano alla lettura delle recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond & Giovanni Rossi

BM&L-09 febbraio 2019

www.brainmindlife.org

 

 

 

 

_____________________________________________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.

 

 

 

 

 

 



[1] Il piede della terza circonvoluzione frontale corrisponde alla parte opercolare del giro frontale inferiore.

[2] Paul Broca era già celebre, quando comunicò alla Società di Antropologia di Parigi la scoperta del “centro motore del linguaggio” dall’esame autoptico di un paziente capace di ripetere sono il monosillabo “tan”. Chiamò afemia, quella che sarà poi definita afasia motoria. Nel 1865 pubblicò un’osservazione decisiva per stabilire la localizzazione esclusiva a sinistra, introducendo la concezione di un emisfero “dominante”.

[3] Fu la prima pubblicazione di Carl Wernicke, un allievo di Theodor Meynert di 26 anni che lavorava come assistente neurologo presso il reparto di neurologia dell’ospedale di Bratislava. Wernicke proponeva uno schema in cui il fascicolo arcuato portava l’informazione dall’area recettiva deputata alla comprensione della parola a quella esecutiva contenente i programmi motori che consentono di parlare.

[4] È solo di recente che è stata descritta la via indiretta di connessione da Marco Catani e colleghi (si veda in “Note e Notizie 07-10-05 Nuove vie e nuove basi neurali per il linguaggio”).

[5] Il modello area di Broca-fascicolo arcuato-area di Wernicke è considerato il prototipo dei modelli connessionisti.

[6] Note e Notizie 25-10-14 Nuova visione del linguaggio nel cervello.